热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

赫尔|人类_透过ChatGPT的进化足迹,OpenAI传达了哪些信号?

篇首语:本文由编程笔记#小编为大家整理,主要介绍了透过ChatGPT的进化足迹,OpenAI传达了哪些信号?相关的知识,希望对你有一定的参考价值。

篇首语:本文由编程笔记#小编为大家整理,主要介绍了透过ChatGPT的进化足迹,OpenAI传达了哪些信号?相关的知识,希望对你有一定的参考价值。



古希腊神话中,一位名叫赫尔墨斯的神,会充当人神之间的信使,穿着带有双翼的飞鞋,行走在神明与人类之间。


根据《荷马史诗》的记载:“在天神中,赫尔墨斯是最喜欢引导凡人前行的。”这句话用来形容OpenAI与AI的关系,虽不中亦不远矣。


上一周,OpenAI打造的ChatGPT出尽风头,成为国内外AI领域的头号热门话题。关于ChatGPT的对话能力,大家可能已经通过很多文章感受过了。简单总结,就是对答如流,无所不能,可替程序员写代码,可替商务人士出方案,还能替作家编故事。一度让久违的 “谷歌已死”“XX职业又要被AI取代了”之类的AI威胁论说辞,开始大量出现了。


关于ChatGPT的神奇之处,看多了也有点审美疲劳了,冷静下来思考一下:


为什么同样是AIGC,问答、对话这类NLP领域应用更容易引起轰动,激发人们对通用人工智能的希望?


为什么同样是预训练模型,相比BERT、GPT3等前辈,ChatGPT的对话能力产生了质的飞跃?


为什么同样是做AI,OpenAI要死磕NLP,从GPT1到 ChatGPT不断迭代?



OpenAI的CEO、联合创始人 Sam Altman曾说过一句话:“Trust the exponential,Flat looking backwards,vertical looking forwards”,相信指数的力量,平行地向后看,垂直地向前看。ChatGPT出现代表着,AI似乎已经站到了指数级飞跃的关键点上。但起飞的ChatGPT,并不是一蹴而就的。


从GPT到ChatGPT,恰好代表了OpenAI在大模型领域切实走过的历程,从中可以看到,OpenAI在AI大模型竞争中,已经探索出了一条属于自己的道路,就如同赫尔墨斯一样,成为引领AI技术前进的使者。


如果OpenAI是传递AI前沿进展的赫尔墨斯,ChatGPT就是那双带着双翼的金丝鞋。我们既要关注ChatGPT这双鞋究竟有多神奇,更有必要搞懂,OpenAI选择的这条大模型道路有何玄机。


今天,中国科技企业与研究机构都在积极投布局大模型,求术不如问道,我们不妨从GPT这一系列模型的演变历程,望向OpenAI关于AI与大模型的战略思考与发展脉络。



从GPT-1到ChatGPT,


超神模型的演化足迹


OpenAI在博客中写道,ChatGPT 是从 GPT3.5 系列中的模型进行微调而诞生的。


正如名称中所暗示的那样,GPT- 3.5是OpenAI设计的一系列NLP模型中的第四个,此前还出现了GPT - 1、GPT - 2 和 GPT - 3。


在 GPT 出现之前,NLP 模型主要是基于针对特定任务的大量标注数据进行训练。这会导致一些限制:


大规模高质量的标注数据不易获得;


模型仅限于所接受的训练,泛化能力不足;


无法执行开箱即用的任务,限制了模型的落地应用。


为了克服这些问题,OpenAI走上了预训练大模型的道路。从GPT1到ChatGPT,就是一个预训练模型越来越大、效果越来越强的过程。当然,OpenAI的实现方式并不只是“大力出奇迹”那么简单。


第一代:从有监督到无监督GPT-1。2018年,OpenAI推出了第一代生成式预训练模型GPT-1,此前,NLP任务需要通过大规模数据集来进行有监督的学习,需要成本高昂的数据标注工作,GPT-1的关键特征是:半监督学习。先用无监督学习的预训练,在 8 个 GPU 上花费 了1 个月的时间,从大量未标注数据中增强AI系统的语言能力,获得大量知识,然后进行有监督的微调,与大型数据集集成来提高系统在NLP任务中的性能。


GPT-1的效果明显,只需要极少的微调,就可以增强NLP模型的能力,减少对资源和数据的需求。同时,GPT-1也存在明显的问题,一是数据局限性,GPT-1 是在互联网上的书籍和文本上训练的,对世界的认识不够完整和准确;二是泛化性依然不足,在一些任务上性能表现就会下降。



第二代:更大更高更强的GPT-2。2019年推出的GPT-2,与GPT-1并没有本质上的不同(注意这一点),架构相同,使用了更大的数据集WebText,大约有40 GB的文本数据、800万个文档,并为模型添加了更多参数(达到惊人的 15 亿个参数),来提高模型的准确性,可以说是加强版或臃肿版的GPT-1。


GPT-2的出现,进一步证明了无监督学习的价值,以及预训练模型在下游NLP任务中的广泛成功,已经开始达到图灵测试的要求,有研究表示,GPT-2生成的文本几乎与《纽约时报》的真实文章(83%)一样令人信服。



(GPT-2表现)


第三代:跨越式进步的GPT-3。2020年,GPT-3的这次迭代,出现了重大的飞跃,成为与GPT-2迥然不同的物种。


首先,GPT-3的体量空前庞大,拥有超过 1750 亿个参数,是GPT-2的 117 倍;其次,GPT-3不需要微调,它可以识别到数据中隐藏的含义,并运用此前训练获得的知识,来执行下游任务。这意味着,哪怕从来没有接触过的示例,GPT-3就能理解并提供不错的表现。因此,GPT-3也在商业应用上表现出了极高的稳定性和实用性,通过云上的 API访问来实现商业化。这种入得了实验室、下得了车间的能力,使得GPT-3成为2020年AI领域最惊艳的模型之一。


当然,GPT-3也并不完美。正如联合创始人 Sam Altman所说,GPT-3的水平仍处于早期阶段,有时候也会犯非常愚蠢的错误,我们距离真正的人工智能世界还有很长的距离。另外,GPT-3 API 的很多基础模型非常庞大,需要大量的专业知识和性能优异的机器,这使得中小企业或个人开发者使用起来比较困难。


第四代:基于理解而生成的ChatGPT。终于在2022年,OpenAI的预训练语言模型之路,又出现了颠覆式的迭代,产生了技术路线上的又一次方向性变化:基于人工标注数据+强化学习的推理和生成。



前面提到,一开始预训练模型的出现,是为了减少监督学习对高质量标注数据的依赖。而ChatGPT在GPT -3.5大规模语言模型的基础上,又开始依托大量人工标注数据(据说OpenAI找了40个博士来标数据),这怎么又走回监督学习的“老路”了呢?


原因是,GPT 3.5虽然很强,但无法理解人类指令的含义(比如写一段博文、改一段代码),无法判断输入,自然也就很难给出高质量的输出答案。所以OpenAI通过专业的标注人员(据说是40个博士)来写词条,给出相应指令/问题的高质量答案,在基于这些数据来调整GPT -3.5的参数,从而让GPT -3.5具备了理解人类指令的能力。


在人工标注训练数据的基础上,再使用强化学习来增强预训练模型的能力。强化学习,简单理解就是做对了奖励、做错了惩罚,不断根据系统的打分来更新参数,从而产生越来越高质量的回答。所以这几天很多人在互动中发现,ChatGPT会承认错误、会修改自己的答复,这正是因为它具备从人类的反馈中强化学习并重新思考的能力。


因为ChatGPT具备了理解能力,所以才被看作是通向通用人工智能AGI的路径。


当然,ChatGPT也并不是完美进化体。OpenAI的官网明确提示,ChatGPT“可能偶尔会生成不正确的信息”,并且“对2021年之后的世界和事件的了解有限”。一些比较难的知识,比如“红楼梦讲了什么”,ChatGPT会一本正经地胡说八道。


从GPT模型的演进和迭代中,可以看到OpenAI是不断朝着自然语言理解这一目标前进,用更大的模型、更先进的架构,最终为通用人工智能找到了一条路径。


从GPT-1到ChatGPT的纵向演变,会看到OpenAI对大模型的独特理解与技术脉络——通过模型预训练提升NLP指标,抵达强人工智能。NLP领域究竟特殊在哪里,值得OpenAI如此执着?


OpenAI的大模型差异化之路



前文中不难看出,OpenAI对于文本生成模型的执着,因为做够得久、投入够多,所以能够做得更好,是非常有长期战略定力的。


与之相比,和GPT-1同年推出的预训练模型,还有谷歌发布的BERT,但后者在火爆一段时间之后影响力明显减弱;而NLP问答领域一向由Meta引领,Meta AI 的 OPT 模型和GPT-3 达到了同等的参数量,但效果就不如OpenAI。同期选手中,OpenAI对于语言模型的用心显然是更多的。


一方面是资源投入,无论是越来越大的模型,需要消耗庞大的算力资源,ChatGPT所需要的高质量标注数据,依靠博士级别的专业人士来完成,比起将数据标注任务分发给众包平台,显然会消耗更多的人力和财力。


另一方面,是技术投入,大规模预训练、增强学习等技术都用在提升NLP对话系统在开放通用领域上的理解和推理能力。NLP是认知智能,要提升就必须解决知识依赖,而知识又是非常离散且难以表示的,要解决带标数据不足、常识知识不足等问题,是非常具有技术挑战的。多年前IBM的Frederick Jelinek就说过:“每当我开除一个语言学家,语音识别系统的性能就会改善一些。”颇有种“解决不了问题,就解决提出问题的人”的既视感。所以也可以说,OpenAI选择了一条更难走的路,去解决真正困难的问题。



此外,聚焦NLP领域也意味着OpenAI会承担隐形的机会成本。


今年AIGC(AI生成内容)在资本市场和应用市场都有很大的进展,与AI作画、音视频生成、AlphaFold2所解决的蛋白质结构预测等生成任务相比,NLP任务都是直接用词汇和符号来表达概念,此类模型通过“API+云服务”来完成商业化服务,无论是云资源的消耗量还是接口调用服务收费,所获得的收益也是远不及图像音视频或科学计算的。拿同样的精力做十个八个Dalle模型,肯定能赚得更多。


科技博主王咏刚在博客中分享了一个故事,称与OpenAI的两位联合创始人交流,发现这二人甚至不知道AIGC是什么意思!


说到这里,或许可以得出结论,OpenAI作为一个旨在“实现安全的通用人工智能(AGI)”的公司,就是在不计投入、不计商业回报,专心致志地通过过预训练大模型来提升NLP任务的各项指标,从而接近AGI的愿景。


为什么OpenAI能够走出这条引领潮流的大模型差异化之路呢?


一方面是NLP的特殊之处。


NLP 不是魔术,但是,其结果有时几乎就是魔术一般神奇。通用人工智能必须具备认知智能,这也是目前制约人工智能取得更大突破和更广泛应用的关键瓶颈,而NLP正是认知智能的核心。Geoffrey Hinton、Yann LeCun都曾说过类似的观点,深度学习的下一个大的进展,应该是让神经网络真正理解文档的内容。


也就是说,当AI能理解自然语言了,AGI可能就实现了。


另外,OpenAI的运行模式也起到了关键的影响。


突破性创新早期需要大量的投入,大模型的开发需要大量的基础设施投入,而ChatGPT的对话系统短期内很难靠调用量的规模化来摊平研发成本。因此,OpenAI是一个非营利性研究机构,没有迫切的商业化压力,因此可以更专注于NLP领域的基础研究,这是商业型AI公司所很难实现的。



2011年,自然语言领域的泰斗肯尼斯·丘吉(Kenneth Church)发表了一篇长文《钟摆摆得太远》(A Pendulum Swung Too Far),其中提到:我们这一代学者赶上了经验主义的黄金时代,把唾手可得的低枝果实采摘下来,留给下一代的都是“难啃的硬骨头”。


深度学习是经验主义的一个新高峰,而这个领域的低枝果实也总有摘完的一天,近年来有大量AI科学家发出警告,深度学习面临很多局限性,单纯用深度学习很难解决一些复杂任务,或许不用太久,基础性突破就会成为AI产业的重要支撑。


GPT的演进也说明了,AI的突破需要循序渐进、从小到大地一步步实现,今天,每家AI企业和研究机构都在做大模型,相比CV计算机视觉、数字人、元宇宙等AI应用,NLP要显得暗淡很多。而如果一窝蜂去摘容易的果实,最终会制约AI深入产业的脚步。


ChatGPT的出现提醒我们,唯有啃下基础领域的硬骨头,才能真正为AI带来质变。



推荐阅读
  • 本文详细介绍了 Java 网站开发的相关资源和步骤,包括常用网站、开发环境和框架选择。 ... [详细]
  • 2020年9月15日,Oracle正式发布了最新的JDK 15版本。本次更新带来了许多新特性,包括隐藏类、EdDSA签名算法、模式匹配、记录类、封闭类和文本块等。 ... [详细]
  • Python与R语言在功能和应用场景上各有优势。尽管R语言在统计分析和数据可视化方面具有更强的专业性,但Python作为一种通用编程语言,适用于更广泛的领域,包括Web开发、自动化脚本和机器学习等。对于初学者而言,Python的学习曲线更为平缓,上手更加容易。此外,Python拥有庞大的社区支持和丰富的第三方库,使其在实际应用中更具灵活性和扩展性。 ... [详细]
  • 本文整理了一份基础的嵌入式Linux工程师笔试题,涵盖填空题、编程题和简答题,旨在帮助考生更好地准备考试。 ... [详细]
  • 兆芯X86 CPU架构的演进与现状(国产CPU系列)
    本文详细介绍了兆芯X86 CPU架构的发展历程,从公司成立背景到关键技术授权,再到具体芯片架构的演进,全面解析了兆芯在国产CPU领域的贡献与挑战。 ... [详细]
  • 第二十五天接口、多态
    1.java是面向对象的语言。设计模式:接口接口类是从java里衍生出来的,不是python原生支持的主要用于继承里多继承抽象类是python原生支持的主要用于继承里的单继承但是接 ... [详细]
  • OpenAI首席执行官Sam Altman展望:人工智能的未来发展方向与挑战
    OpenAI首席执行官Sam Altman展望:人工智能的未来发展方向与挑战 ... [详细]
  • 当前,众多初创企业对全栈工程师的需求日益增长,但市场中却存在大量所谓的“伪全栈工程师”,尤其是那些仅掌握了Node.js技能的前端开发人员。本文旨在深入探讨全栈工程师在现代技术生态中的真实角色与价值,澄清对这一角色的误解,并强调真正的全栈工程师应具备全面的技术栈和综合解决问题的能力。 ... [详细]
  • 深入解析Java中的空指针异常及其预防策略
    空指针异常(NullPointerException,简称NPE)是Java编程中最常见的异常之一。尽管其成因显而易见,但开发人员往往容易忽视或未能及时采取措施。本文将详细介绍如何有效避免空指针异常,帮助开发者提升代码质量。 ... [详细]
  • 面试题总结_2019年全网最热门的123个Java并发面试题总结
    面试题总结_2019年全网最热门的123个Java并发面试题总结 ... [详细]
  • Python 数据可视化实战指南
    本文详细介绍如何使用 Python 进行数据可视化,涵盖从环境搭建到具体实例的全过程。 ... [详细]
  • C++ 开发实战:实用技巧与经验分享
    C++ 开发实战:实用技巧与经验分享 ... [详细]
  • 微信平台通过盛派SDK(sdk.weixin.senparc.com)允许服务号和订阅号使用appId和token读取关注用户的个人信息。然而,这一过程需严格遵守隐私保护和数据安全的相关规定,确保用户数据的安全性和隐私性。 ... [详细]
  • 为了在Fragment中直接调用Activity的方法,可以通过定义一个接口并让Activity实现该接口来实现。具体步骤包括:首先在Fragment中声明一个接口,并在Activity中实现该接口。接着,在Fragment中通过类型转换检查Activity是否实现了该接口,如果实现了则调用相应的方法。这种方法不仅提高了代码的解耦性,还增强了模块间的通信效率。此外,还可以通过ViewModel或LiveData等现代Android架构组件进一步优化这一过程,以实现更加高效和可靠的通信机制。 ... [详细]
  • 视觉图像的生成机制与英文术语解析
    近期,Google Brain、牛津大学和清华大学等多家研究机构相继发布了关于多层感知机(MLP)在视觉图像分类中的应用成果。这些研究深入探讨了MLP在视觉任务中的工作机制,并解析了相关技术术语,为理解视觉图像生成提供了新的视角和方法。 ... [详细]
author-avatar
歼鸡队队长_512
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有